Noyb: Datenschutzbeschwerde in Österreich gegen OpenAI

OpenAI - Anbieter von ChatGPT

OpenAI – Anbieter von ChatGPT

OpenAIs LLM ChatGPT steht erneut wegen des Datenschutzes in der Kritik. Die Organisation „noyb“ setzt sich für Datenschutz in der EU ein und wurde von Max Schrems gegründet. Sie hat jetzt eine Beschwerde gegen OpenAI in Österreich eingereicht. Der Kern des Vorwurfs: ChatGPT verletzt die Datenschutzgrundverordnung (DSGVO) der EU, da falsche Informationen über Personen generiert und verbreitet werden.

Wie alle LLMs kann GPT-4(ChatGPT) „halluzinieren“, das Modell erfindet Informationen, die schlichtweg falsch sind. In der aktuellen Beschwerde geht es um eine Person des öffentlichen Lebens, deren Geburtstag wiederholt falsch angegeben wurde. Korrekturanfragen oder gar die Löschung der Daten lehnte OpenAI ab. Überdies konnte OpenAI nicht offenlegen, woher die Daten stammen und wie sie verarbeitet werden. Hier frage ich mich aber auch was noyb erwartet? Das OpenAI die Trainingsdaten preisgibt, wird wahrscheinlich nicht passieren, aber besonders das Löschen von Daten im Nachhinein ist einfach nicht möglich. Nur eine Output-Filterung wäre hier möglich.

Maartje de Graaf von noyb: „Es ist klar, dass Unternehmen derzeit nicht in der Lage sind, Chatbots wie ChatGPT mit dem EU-Recht in Einklang zu bringen. Wenn ein System keine genauen und transparenten Ergebnisse liefern kann, darf es nicht zur Erstellung von Personendaten verwendet werden. Die Technologie muss den rechtlichen Anforderungen folgen, nicht umgekehrt.“ Die Organisation fordert die österreichische Datenschutzbehörde dazu auf, OpenAI genauer zu untersuchen. Das Unternehmen soll die Datenverarbeitung an die DSGVO anpassen, dem Auskunftsersuchen des Beschwerdeführers nachkommen und möglicherweise ein Bußgeld zahlen.

Auch wenn ich noyb nicht grundsätzlich widerspreche, so ist es doch eine Utopie anzunehmen, dass die Technik immer den Gesetzen folgt. Dafür ist das Gesetz einfach zu langsam. Realistischerweise kann hier OpenAI nur verlieren und es muss auf dem Weg zu einem Verbot solcher LLMs in Europa kommen. Aber ist das auch wirklich die richtige Lösung? Mistral, ein französisches KI-Unternehmen, kämpft auch mit Halluzinationen. Es bietet zumindest auch offene LLMs an, z. B. das neue Mixtral 8x22B. Das Problem ist definitiv keine USA vs. EU, sondern die zugrundeliegende Technologie. Mein Vorschlag ist die Veröffentlichung der Trainingsdaten und klare Hinweise bei der Nutzung, dass die Informationen keine Richtigkeit erfüllen müssen. Was meint ihr?

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Als ehrenamtlicher First-Level-Support und quasi Apple-Jünger, der gerne seine Lebenszeit in Tech-Blogs verbrennt, stehe ich auch gerne für hitzige Diskussionen zur Verfügung.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

8 Kommentare

  1. BigBlue007 says:

    Ich bin vollumfänglich der Meinung, dass Technik Gesetzen zu folgen hat und nicht umgekehrt. Wenn das nicht möglich ist, gehört sie verboten/deaktiviert. Ist das die richtige Lösung? Für mich ganz klar ja.

  2. Es darf doch keine Utopie sein, dass Technik ausschließlich rechtskonform eingesetzt wird. Gesetze basieren auf gesellschaftlichen Konsens und ich möchte darauf vertrauen, dass die Halbwertszeit eines Gesetzs nicht vom nächsten Release einer Technologie abhängig ist.
    Die KI erfindet Fakten über Personen, also ändern wir das Gesetz, dass sie das darf, anstatt dafür zu sorgen, dass das zukünftig nicht passiert? Kann ja wohl nicht der richtige Weg sein. Du kannst Deiner KI das Erfinden von Fakten über Personen nicht verbieten? Dann schalte das System bitte ab.

    • BlueWhale9 says:

      Natürlich sollte Technik rechtskonform eingesetzt werden, allerdings ist das Gesetz am Ende des Tages für die Menschen da und nicht die Menschen für das Gesetz.

      Wenn sich das Leben der Menschen ändert („Ich will ChatGPT nutzen“), muss sich das Gesetz anpassen. Durch die immer schnellere Weiterentwicklung der Technologie muss dies dann eben auch immer schneller passieren. Dass ChatGPT halluziniert, hat nun wohl auch fast jeder verstanden.

      Dass, wenn ich beim Auto das Gaspedal drücke, das Auto vorwärts fährt und ich damit jemanden verletzten kann weiß jeder. Es gibt es Gesetze zu Autos, aber das Auto wurde nicht verboten.

      Ich bin ein Fan von Noyb, aber in letzter Zeit finde ich es etwas übertrieben…

    • Mike Leitner says:

      Naja, das Problem ist nicht das, einem das Gesetze starr sind und Evtl Techniken nicht bedacht wurden vorab. Das Beispiel hier mit dem Geburtstag ist ein gutes. Das ist in dem Gesetz nur ein Problem weil man solche Generatoren gar nicht beachtet hat. Eine Regelung ala: Cookie Banner nur für Daten Korrektheit wäre auch denkbar gewesen und ok.

      • Die DSGVO sagt, wenn ChatGPT zu meiner Person falsche Daten ausspuckt, habe ich das Recht diese korrigieren zu lassen, was vermutlich jeder begrüßen würde, oder?
        Also haben die Generatoren das Gesetz zu beachten und OpenAI kann sich nicht damit herausreden, dass sie nicht wüssten, wie ChatGPT an die falschen Daten kommt. Hier hat es vielleicht keine große Tragweite, aber was ist, wenn ChatGPT z. B. den Holocaust leugnet, oder andere strafbare Dinge tut?

  3. Schwieriges Thema. Das Problem ist, dass beim Halluzinieren diese Systeme, dass Ganze so überzeugend darstellen, dass beim User eigentlich keine Zweifel an der Echtheit der dargelegten angeblichen Fakten aufkommt. Daher bin ich auch dafür, dass derartige Systeme entsprechenden Gesetzen unterliegen müssen, denn ansonsten wird das, was derartige Systeme auswerfen plötzlich zur Richtigkeit erklärt: „Sie dürfen das Land nicht verlassen, denn das System sagt, dass Ihr Ausweis bereits abgelaufen ist“.

  4. Lars Mulder says:

    Viele der Diskussionen um LLMs zeigen das eben eine Bildungslücke gibt. Alles was in ein solches LLM eingefüttert wird, wird zu Trainingsdaten. Steht so oder ähnlich bei allen KIs oder LLMs in den Terms. Also ein Nutzer der seinen Namen und sein Geburtstag in das LLM reinschreibt hat damit akzeptiert dass das LLM die Daten für Trainingszwecke verwenden darf und wird dies auch im Output verwenden. Jetzt gibt es aber Namenskombinationen eben nicht nur einmal… Wir erklären den jungen Menschen eben auch nicht mehr was wie funktioniert sonst würden die eben mehr aufpassen was sie machen.
    Über alle ist ein verbieten ein typisch deutscher oder in diesem Fall „Schrems“ Reflex. Wenn nur unsere Daten sicher sind wird alles gut 😀 … dazu braucht es keinen Schrems sondern Verstand !!

  5. Können wir das Gesetz auch auf die Menschen anwenden? Der bedauerliche Ausmaß der intellektuellen Trivialität, die von der Plage der Falschinformationen und der selbstgefälligen Ignoranz glänzt, ist in breiter Maße stark ausgeprägt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.